Световни новини без цензура!
Потенциалът на изкуствения интелект за биотероризъм не трябва да се изключва
Снимка: ft.com
Financial Times | 2024-02-07 | 08:12:51

Потенциалът на изкуствения интелект за биотероризъм не трябва да се изключва

Писателят е теоретичен коментатор

Движете се, няма какво да видите тук. Това наподобява беше известието от OpenAI предходната седмица за опит, с цел да се види дали неговият модернизиран чатбот с изкуствен интелект GPT-4 може да помогне на хора, осведомени с науката, да създадат и пуснат биологично оръжие.

Чатботът „ дава най-вече леко покачване “ на тези старания, разгласи OpenAI, само че добави, че е незабавно нужна повече работа по тематиката. Заглавията повториха утешителното умозаключение, че огромният езиков модел не е готварска книга на терористи.

Задълбочете се обаче в проучването и нещата наподобяват малко по-малко успокояващи. На съвсем всеки стадий от въображаемия развой, от намирането на биологичен сътрудник до увеличението му и стартирането му, участниците, въоръжени с GPT-4, съумяха да се приближат по-близо до злодейската си цел, в сравнение с противниците, употребяващи единствено интернет.

Основният извод от упражнението не би трябвало да бъде възприятието на облекчение. „ [Open AI] би трябвало да е много обезпокоен от тези резултати “, написа Гари Маркъс, коментатор, който е свидетелствал за надзора на AI пред комисия в Сената на Съединени американски щати, предходната седмица в своя необятно четен бюлетин.

Така че би трябвало ние. Имаме потребност от по-добри самостоятелни механизми за реалистична оценка и ограничение на сходни закани. Точно както не разрешаваме на фармацевтичните компании да се произнасят по отношение на сигурността на медикаментите, оценката на риска от ИИ не може да бъде оставена единствено на промишлеността.

Изследователите на OpenAI попитаха 100 тествани доброволци - 50 студенти с обикновено образование по биология, плюс 50 специалисти с опит в мокри лаборатории и докторанти по подобаващи тематики като вирусология — за обмисляне на биологична терористична офанзива, като пандемия от ебола. Двадесет и пет от всеки 50 бяха определени на инцидентен принцип да употребяват интернет, с цел да проучат своя план; останалите 25 можеха да употребяват както интернет, по този начин и GPT-4.

Самото предизвикателство беше разграничено на пет задания: определяне на биологичен сътрудник и обмисляне на стратегия; улавяне на агента; прекопирване задоволително, с цел да се направи оръжие; формулирането и стабилизирането му; и най-после освобождение. След това външни експерти по биосигурност оцениха участниците, от 10, за това какъв брой добре са възнамерявали тези задания по пет индикатора, в това число акуратност, цялост и нововъведения. Високите резултати могат да бъдат извоювани, да вземем за пример, посредством идентифициране на верните реактиви; изброяване на верните стъпки в индустриалния процес; и намиране на нов метод за заобикаляне на защитните ограничения за сигурност.

Както студентите, по този начин и специалистите с достъп до GPT-4 бяха оценени като по-точни от групите единствено в интернет. Но убийствената композиция беше научна експертиза плюс GPT-4. Експертите с задействан AI, на които беше разрешено да употребяват неограничена версия на GPT-4, означиха спомагателни 0,88 от 10 спрямо специалистите, работещи единствено с интернет. Изследователите дефинират прага за безпокойствие на 8 от 10; няколко специалисти, употребяващи GPT-4, съумяха да доближат този крайъгълен камък, изключително при доставката, мащабирането, формулирането и стартирането.

И въпреки всичко констатациите бяха счетени за статистически незначими, като откривателите признаха единствено, че неограниченият GPT-4 “ може да усили способността на специалистите за достъп до информация за биологични закани ”. По номинална стойност таблиците оферират друг метод: GPT-4 учетвори възможностите на специалист да излезе с жизнеспособна дефиниция.

Авторите признават други ограничавания на проучването. Докато участниците са работили сами в петчасови сесии, терористите могат да стоят дружно седмици или месеци. И участниците не съумяха да получат достъп до цялостния набор от усъвършенствани принадлежности за разбор на данни GPT-4, които биха могли, признават откривателите, „ нетривиално да подобрят полезността на нашите модели “ за обмисляне на офанзиви.

В отбрана. на двусмисленото си обръщение, OpenAI може да уточни скорошно изследване на Rand Corporation, което също откри, че от лятото на 2023 година огромните езикови модели не вършат проектите за биотерористична офанзива по-статистически жизнеспособни спрямо елементарното потребление на интернет.

Изследователите на Ранд обаче разпознаха променлива обстановка, изменяща се в незнайна времева канара. „ Не би трябвало да преувеличаваме рисковете, само че не би трябвало и да ги минимизираме “, споделя Филипа Ленцос, откривател по просвета и интернационална сигурност в Кралския лицей в Лондон, която приканва държавните управления и университетските среди да се включат в оценката на сходни закани.

AI непрекъснато изненадва и GPT-4 не е единствената игра в града. Измамни страни, психотични самотници и злонамерени групи ще намерят малки врати. Въпреки че този опит се концентрира единствено върху планирането, разрастването на отдалечени „ облачни лаборатории “, където опитите могат да се предават на автоматизирани уреди, може да промени изчислението при осъществяването. Токсините, основани от изкуствен интелект, съставляват спомагателен риск.

В цялата част има какво да се види тук – задоволително, с цел да заслужи доста повишение на мисълта за способността на изкуствения разсъдък да предизвиква биотероризма.

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!